Актьорите предложиха акции на компанията за част от AI модели на Synthesia
основаната в Лондон започващ просветеност Synthesia, което предлага акции на компанията на човешките артисти, които употребява за генериране на цифрови „ аватари “ на хората, в коренен ход за AI промишлеността, която премисля по какъв начин служащите се компенсират за подкрепяне на образованието на отрязаната технология. Tuesday that it is creating a pool of company shares at present worth $1mn through which it will reward actors with equity in return for the use of their likeness and help in crafting new products and features.
Synthesia chief executive Victor Riparbelli said the initiative was a recognition that the actors it hired to train its AI models were also the faces of the company.
„ Всеки, който работи в Synthesia, има акции в компанията “, сподели Рипарбели. „ В последна сметка актьорите също са чиновници до известна степен. “
synthesia лицензира приликите на участниците, с цел да построи своите хипер-реалистични AI аватари в продължение на три години. Тя им заплаща в брой за към ден работа. Актьорите могат да се откажат от външния си тип и гласът, който се употребява в аватарите когато и да е. Новата стратегия за акции ще бъде препоръчана на артисти с най -популярните аватари.
Този ход се занимава с една от основните проблеми на хората в креативната промишленост, които настояват, че те не се заплащат вярно за потреблението на работата си за образование на комплицирани модели и артикули на AI. Актьорите и музикантите постоянно се оферират еднократни такси от фирмите на AI, само че по-късно би трябвало да им разрешат да употребяват тази работа във безкрайност.
Този ход идва, защото водещите софтуерни групи като Openai се стремят да подписват многомилионни покупко-продажби с медийни организации и издатели на наличие, като в същото време са съдени от други групи поради изказванията, че към този момент са нарушили законите за авторското право в образованието на своите модели. Лицензиране на синтетичното им сходство “, сподели Хенри Айдер, специалист по генеративни ИИ и Deepfakes, който не е част от самодейността.
Компанията преди този момент се е сблъсквала с рецензии от страна на съюза на актьорите поради основаването на по този начин наречените „ Deepfakes “ или неконсенсусни цифрови клонинги на действителни хора, когато някои от неговите аватари, генерирани от AI, са били употребявани през 2023 година за разпространяване на политическа агитация в поддръжка на китайците и венецуелските държавни управления. Оттогава Synthesia забрани на тези клиенти от своята платформа и сложи по-строги практики за взаимно наличие на наличие.
Въпреки това, даже при по -добро сдържаност на наличието и функционалности за сигурност, никоя AI система не беше напълно ваксинирана от евентуална корист, предизвестиха Ajder.
„ Актьорите би трябвало да са наясно с това, когато обмислят по какъв начин може да се появи тяхното синтетично сходство в света отвън техния непосреден надзор и дали евентуалният риск, колкото и дребен да е, е нещо, което са подготвени да одобряват “, добави той.